Xác suất là gì? Các công bố khoa học về Xác suất

Xác suất là một khái niệm trong toán học và thống kê, thường được sử dụng để đo lường khả năng xảy ra của một sự kiện. Nó đo lường mức độ chắc chắn hoặc không c...

Xác suất là một khái niệm trong toán học và thống kê, thường được sử dụng để đo lường khả năng xảy ra của một sự kiện. Nó đo lường mức độ chắc chắn hoặc không chắc chắn của một sự kiện. Xác suất được đưa ra dưới dạng một số từ 0 đến 1, với 0 đại diện cho khả năng không xảy ra sự kiện và 1 đại diện cho khả năng xảy ra sự kiện hoàn toàn chắc chắn.
Xác suất là một phần tử trong lý thuyết xác suất, mà là một phần của toán học đại số, giúp đo lường mức độ chắc chắn hoặc không chắc chắn của các sự kiện. Nó được sử dụng để quantize, hoặc biểu thị, mức độ tỉ lệ của một sự kiện xảy ra so với toàn bộ các khả năng có thể xảy ra.

Công thức xác suất chính thức P(E) cho một sự kiện E được đưa ra bởi tỷ lệ giữa số lần E xảy ra và tổng số khả năng xảy ra trong các thử nghiệm. Nó được tính theo công thức:

P(E) = (số lượng trường hợp thuận lợi) / (tổng số trường hợp có thể xảy ra)

Trong đó, số lượng trường hợp thuận lợi là số lần mà sự kiện E xảy ra trong khi tổng số trường hợp có thể xảy ra là tổng của tất cả các kết quả có thể xảy ra.

Một số thuật ngữ quan trọng trong lý thuyết xác suất bao gồm:
- Sự kiện: Một sự kiện là kết quả của một thử nghiệm cụ thể.
- Không gian mẫu: Tập hợp tất cả các kết quả có thể xảy ra trong một thử nghiệm.
- Xác suất đồng nhất: Khi tất cả các kết quả có cùng xác suất xảy ra.
- Xác suất có điều kiện: Xác suất của một sự kiện xảy ra, biết rằng một sự kiện khác đã xảy ra.
- Xác suất độc lập: Xác suất của một sự kiện không bị ảnh hưởng bởi xảy ra (hoặc không xảy ra) của sự kiện khác.

Xác suất có ứng dụng rộng rãi trong nhiều lĩnh vực như thống kê, kinh tế, y học, khoa học máy tính và quản lý rủi ro. Nó giúp chúng ta đưa ra dự đoán và đánh giá xác thực cho các kết quả tiềm năng và quyết định.
Cụ thể hơn, để hiểu xác suất, chúng ta cần nắm vững các khái niệm và phương pháp liên quan, bao gồm:

1. Không gian mẫu (sample space): Đây là tập hợp tất cả các kết quả có thể xảy ra trong một thử nghiệm. Ví dụ: khi tung một đồng xu, không gian mẫu sẽ gồm hai kết quả: mặt ngửa hoặc mặt sấp.

2. Sự kiện (event): Một sự kiện là một tập hợp các kết quả trong không gian mẫu. Ví dụ: sự kiện "xuất hiện mặt sấp" trong trường hợp tung đồng xu sẽ là một sự kiện con trong không gian mẫu.

3. Xác suất đồng nhất (equally likely): Khi tất cả các kết quả trong không gian mẫu có cùng khả năng xảy ra, xác suất đồng nhất cho mỗi kết quả là 1/N, trong đó N là tổng số kết quả trong không gian mẫu.

4. Phép cộng xác suất (addition rule): Xác suất của một sự kiện A hoặc B xảy ra (ký hiệu là P(A U B)) được tính bằng tổng của xác suất của A và B trừ đi xác suất của A và B cùng xảy ra (P(A ∩ B)) nếu có. Công thức là: P(A U B) = P(A) + P(B) - P(A ∩ B).

5. Xác suất độc lập (independence): Hai sự kiện A và B là độc lập khi xác suất của A không bị ảnh hưởng bởi sự xảy ra hay không xảy ra của B, và ngược lại. Công thức: P(A ∩ B) = P(A) * P(B).

6. Xác suất có điều kiện (conditional probability): Xác suất của một sự kiện A xảy ra nếu biết rằng một sự kiện khác B đã xảy ra được tính bằng xác suất của A và B cùng xảy ra chia cho xác suất của B. Công thức: P(A|B) = P(A ∩ B) / P(B).

7. Luật nhân xác suất (multiplication rule): Xác suất của hai sự kiện A và B cùng xảy ra được tính bằng tích của xác suất của A và xác suất của B nếu A và B độc lập. Công thức: P(A ∩ B) = P(A) * P(B).

Các công thức và phương pháp trên là một phần trong lý thuyết xác suất. Chúng được sử dụng để tính toán và đánh giá xác suất của các sự kiện trong nhiều tình huống khác nhau, từ phân tích dữ liệu thống kê cho đến mô hình hóa và dự báo trong khoa học, công nghệ và nhiều lĩnh vực khác.

Danh sách công bố khoa học về chủ đề "xác suất":

MRBAYES: Xác suất Bayes Suy luận cây tiến hóa Dịch bởi AI
Bioinformatics - Tập 17 Số 8 - Trang 754-755 - 2001
Tóm tắt

Tóm tắt: Chương trình MRBAYES thực hiện suy luận Bayes của phả hệ bằng cách sử dụng một biến thể của thuật toán Monte Carlo chuỗi Markov.

Khả dụng: MRBAYES, bao gồm mã nguồn, tài liệu, các tệp dữ liệu mẫu và một tệp thực thi, có sẵn tại http://brahms.biology.rochester.edu/software.html.

Liên hệ: [email protected]

#Bayesian inference #phylogeny #Markov chain Monte Carlo #MRBAYES #software availability
Hướng Tới Thực Hành Tốt Nhất Khi Sử Dụng Cân Bằng Xác Suất Đối Sử (IPTW) Dựa Trên Điểm Khuynh Hướng Để Ước Lượng Hiệu Ứng Đối Sử Nhân Quả Trong Nghiên Cứu Quan Sát Dịch bởi AI
Statistics in Medicine - Tập 34 Số 28 - Trang 3661-3679 - 2015
Điểm khuynh hướng được định nghĩa là xác suất của đối tượng đối với việc chọn lựa điều trị, dựa trên các biến cơ bản được quan sát. Cân bằng đối tượng theo xác suất nghịch đảo của điều trị nhận được sẽ tạo ra một mẫu tổng hợp trong đó việc phân bổ điều trị độc lập với các biến cơ bản được đo lường. Cân bằng xác suất đối sử nghịch đảo (IPTW) dựa trên điểm khuynh hướng cho phép người ta thu được ước lượng không thiên vị của hiệu ứng điều trị trung bình. Tuy nhiên, các ước lượng này chỉ có giá trị nếu không có sự khác biệt có hệ thống còn sót lại trong các đặc điểm cơ bản đã quan sát giữa các đối tượng được điều trị và đối chứng trong mẫu được cân bằng bởi xác suất nghịch đảo điều trị ước tính. Chúng tôi báo cáo về một đánh giá hệ thống tài liệu, trong đó chúng tôi đã phát hiện rằng việc sử dụng IPTW đã gia tăng nhanh chóng trong những năm gần đây, nhưng trong năm gần nhất, phần lớn nghiên cứu không kiểm tra chính thức liệu rằng việc cân bằng đã cân bằng các biến số giữa các nhóm điều trị hay không. Sau đó, chúng tôi tiến hành mô tả một tập hợp các phương pháp định lượng và định tính cho phép người ta đánh giá liệu các biến cơ bản được đo lường có được cân bằng giữa các nhóm điều trị trong mẫu đã cân bằng hay không. Các phương pháp định lượng sử dụng sự khác biệt tiêu chuẩn hóa có trọng số để so sánh tiêu chuẩn, tỷ lệ ưu tiên, các khoảnh khắc bậc cao hơn, và các sự tương tác. Các phương pháp định tính sử dụng các phương pháp đồ hoạ để so sánh phân phối của các biến cơ bản liên tục giữa các đối tượng điều trị và đối chứng trong mẫu đã cân bằng. Cuối cùng, chúng tôi minh họa việc áp dụng các phương pháp này trong một nghiên cứu trường hợp thực nghiệm. Chúng tôi đề xuất một bộ chuẩn đo lường cân bằng chính thức góp phần vào khái niệm 'thực hành tốt nhất' đang phát triển khi sử dụng IPTW để ước lượng hiệu ứng điều trị nhân quả bằng dữ liệu quan sát. © 2015 Các Tác Giả. Statistics in Medicine Được xuất bản bởi John Wiley & Sons Ltd.
#điểm khuynh hướng #cân bằng xác suất đối sử nghịch đảo #hiệu ứng điều trị trung bình #kiểm tra cân bằng #nghiên cứu quan sát
Những Kỳ Dị Khối Lượng của Biên Độ Feynman Dịch bởi AI
Journal of Mathematical Physics - Tập 3 Số 4 - Trang 650-677 - 1962

Các biên độ Feynman, được xem như hàm số của khối lượng, thể hiện nhiều kỳ dị khi cho phép khối lượng của các đường nội và ngoại giảm xuống không. Trong bài viết này, các đặc tính của những kỳ dị khối lượng này, được định nghĩa là các nghiệm bất thường của điều kiện Landau, được nghiên cứu chi tiết. Một phương pháp chung được phát triển, cho phép chúng ta xác định mức độ phân kỳ của các biên độ Feynman chưa được chỉnh lý tại những kỳ dị như vậy. Nó cũng được áp dụng để xác định sự phụ thuộc vào khối lượng của xác suất chuyển trạng thái tổng thể. Qua đó, người ta nhận thấy rằng, mặc dù các xác suất chuyển trạng thái từng phần có thể có phân kỳ liên quan đến việc khối lượng của các hạt ở trạng thái cuối cùng biến mất, chúng luôn triệt tiêu lẫn nhau trong quá trình tính toán tổng xác suất. Tuy nhiên, sự triệt tiêu này bị phá vỡ một phần nếu quá trình điều chỉnh điện tích được thực hiện theo cách thông thường. Điều này liên quan đến thực tế là các hạt tương tác mất đi tính đồng nhất khi khối lượng của chúng bằng không. Một mô tả mới của trạng thái và một cách tiếp cận mới cho vấn đề điều chỉnh có vẻ như cần thiết cho một cách xử lý nhất quán của giới hạn này.

#Biên độ Feynman #Kỳ dị khối lượng #Điều kiện Landau #Phân kỳ #Xác suất chuyển trạng thái #Điều chỉnh điện tích #Phương pháp chỉnh lý.
Google Earth Engine, Dữ liệu vệ tinh truy cập mở, và Máy học hỗ trợ lập bản đồ xác suất đầm lầy trên diện rộng Dịch bởi AI
Remote Sensing - Tập 9 Số 12 - Trang 1315
Các tiến bộ hiện đại trong điện toán đám mây và các thuật toán máy học đang thay đổi cách sử dụng dữ liệu quan sát Trái Đất (EO) để giám sát môi trường, đặc biệt là trong thời kỳ dữ liệu vệ tinh truy cập mở và miễn phí đang trở nên phổ biến. Việc phân định đầm lầy là một ứng dụng đặc biệt có giá trị của xu hướng nghiên cứu nổi lên này, vì đầm lầy là một thành phần quan trọng về sinh thái nhưng lại thường bị thiếu đại diện trong các chương trình lập bản đồ và giám sát hiện đại, đặc biệt ở cấp độ khu vực và quốc gia. Lợi dụng Google Earth Engine và phần mềm thống kê R, chúng tôi đã phát triển một quy trình công việc để dự đoán khả năng xuất hiện đầm lầy sử dụng mô hình máy học cây hồi quy tăng cường được áp dụng cho dữ liệu địa hình số và EO. Nghiên cứu tại khu vực 13.700 km2 ở Bắc Alberta, mô hình tốt nhất của chúng tôi đã cho ra kết quả xuất sắc, với giá trị AUC (diện tích dưới đường cong đặc tính hoạt động của máy thu) là 0.898 và giá trị sự biến thiên giải thích là 0.708. Kết quả của chúng tôi chứng tỏ vai trò trung tâm của các biến địa hình chất lượng cao trong việc mô hình hóa phân bố đầm lầy ở quy mô khu vực. Việc bao gồm các biến quang học và/hoặc radar vào quy trình đã cải thiện đáng kể hiệu suất của mô hình, mặc dù dữ liệu quang học hoạt động tốt hơn một chút. Việc chuyển đổi mô hình khả năng xuất hiện đầm lầy của chúng tôi thành phân loại nhị phân Wet-Dry cho độ chính xác tổng thể 85%, gần như giống với giá trị thu được từ giải pháp Tổng hợp Đầm lầy Alberta (AMWI): bản kiểm kê đương đại được Chính phủ Alberta sử dụng. Tuy nhiên, quy trình công việc của chúng tôi chứa đựng một số lợi thế chính so với quy trình được sử dụng để sản xuất AMWI, và cung cấp một nền tảng có thể mở rộng cho các sáng kiến giám sát toàn tỉnh.
#Điện toán đám mây #Máy học #Dữ liệu quan sát Trái Đất #Phân định đầm lầy #Google Earth Engine #Hồi quy tăng cường #Alberta #Vệ tinh truy cập mở #Mô hình hóa đầm lầy #Biến địa hình #Dữ liệu quang học #Dữ liệu radar
Phương pháp xác suất điều kiện cho việc phân tích dữ liệu khảo sát số lượng tại một lần tham quan trong bối cảnh có hiện tượng gia tăng số không và sai số phát hiện Dịch bởi AI
Environmetrics - Tập 23 Số 2 - Trang 197-205 - 2012

Các phương pháp hiện tại để điều chỉnh sai số phát hiện yêu cầu nhiều lần ghé thăm cùng một địa điểm khảo sát. Nhiều tập dữ liệu lịch sử tồn tại, được thu thập chỉ với một lần ghé thăm, và các yếu tố về logistics/chi phí ngăn cản nhiều chương trình nghiên cứu hiện tại thu thập dữ liệu từ nhiều lượt ghé thăm. Trong bài báo này, chúng tôi khám phá những gì có thể thực hiện với dữ liệu số lượng từ một lần ghé thăm khi có sai số phát hiện. Chúng tôi chứng minh rằng khi có các biến phù hợp ảnh hưởng đến cả phát hiện và độ phong phú, xác suất điều kiện có thể được sử dụng để ước lượng các tham số hồi quy của mô hình hỗn hợp Poisson nhị thức – gia tăng số không (ZIP) và điều chỉnh cho sai số phát hiện. Chúng tôi sử dụng số lượng quan sát của Chim Ovenbird (Seiurus aurocapilla) để minh họa việc ước lượng các tham số cho mô hình hỗn hợp Poisson nhị thức – gia tăng số không bằng cách sử dụng một tập hợp dữ liệu từ một trong những bộ dữ liệu chuỗi thời gian sinh thái lớn nhất và lâu dài nhất chỉ có những lần ghé thăm đơn lẻ. Phương pháp một lần tham quan của chúng tôi có các đặc điểm như sau: (i) không yêu cầu giả định về một quần thể kín hoặc điều chỉnh do di chuyển hay di cư gây ra; (ii) hiệu quả về chi phí, giúp các nhà sinh thái học có thể bao phủ một khu vực địa lý rộng lớn hơn so với khi phải quay lại các địa điểm; và (iii) các ước lượng kết quả có vẻ rất hiệu quả về mặt thống kê và tính toán. Bản quyền © 2012 John Wiley & Sons, Ltd.

Đánh giá ảnh hưởng của thiết kế lấy mẫu huấn luyện đến hiệu suất của các bộ phân loại học máy trong lập bản đồ lớp phủ đất sử dụng dữ liệu viễn thám đa thời gian và nền tảng Google Earth Engine Dịch bởi AI
Remote Sensing - Tập 13 Số 8 - Trang 1433

Các bộ phân loại học máy ngày nay đang được sử dụng ngày càng nhiều cho việc lập bản đồ Sử dụng Đất và Phủ Lớp (LULC) từ hình ảnh viễn thám. Tuy nhiên, để chọn đúng bộ phân loại cần phải hiểu các yếu tố chính ảnh hưởng đến hiệu suất của chúng. Nghiên cứu hiện tại đã điều tra trước hết là tác động của thiết kế lấy mẫu huấn luyện đến kết quả phân loại thu được bởi bộ phân loại Random Forest (RF), và thứ hai là so sánh hiệu suất của nó với các bộ phân loại học máy khác cho việc lập bản đồ LULC sử dụng dữ liệu viễn thám vệ tinh đa thời gian và nền tảng Google Earth Engine (GEE). Chúng tôi đã đánh giá tác động của ba phương pháp lấy mẫu, cụ thể là Lấy Mẫu Ngẫu Nhiên Phân Tầng Đều (SRS(Eq)), Lấy Mẫu Ngẫu Nhiên Phân Tầng Theo Tỷ Lệ (SRS(Prop)), và Lấy Mẫu Hệ Thống Phân Tầng (SSS) đến kết quả phân loại thu được bởi mô hình LULC được huấn luyện RF. Kết quả của chúng tôi cho thấy rằng phương pháp SRS(Prop) có lợi cho các lớp lớn đồng thời đạt được độ chính xác tổng thể tốt. Phương pháp SRS(Eq) cung cấp độ chính xác tốt ở cấp độ lớp, ngay cả đối với các lớp thiểu số, trong khi phương pháp SSS hoạt động tốt cho các khu vực có độ biến đổi trong lớp lớn. Để đánh giá hiệu suất của các bộ phân loại học máy, RF vượt trội hơn Cây Phân Loại và Hồi Quy (CART), Máy Vector Hỗ Trợ (SVM), và Máy Vector Liên Quan (RVM) với mức độ tin cậy >95%. Hiệu suất của các bộ phân loại CART và SVM được thấy là tương tự nhau. RVM đạt được kết quả phân loại tốt với số lượng mẫu huấn luyện hạn chế.

#Lập bản đồ lớp phủ đất #học máy #Random Forest #viễn thám #lấy mẫu phân tầng #Google Earth Engine #Độ chính xác phân loại #dữ liệu đa thời gian
Các nền tảng của phân tích quyết định: Dọc đường Dịch bởi AI
Management Science - Tập 35 Số 4 - Trang 387-405 - 1989

Bài báo này đưa ra góc nhìn cá nhân về sự phát triển của lý thuyết quyết định và các chủ đề liên quan trong suốt nửa thế kỷ qua. Đầu tiên, nó điểm lại sáu cột mốc quan trọng trong nền tảng của phân tích quyết định liên quan đến Frank P. Ramsey, John von Neumann và Oskar Morgenstern, Leonard J. Savage, Maurice Allais và Ward Edwards, West Churchman và Russell Ackoff, và Kenneth Arrow. Sau đó, bài viết cung cấp một cái nhìn cá nhân về những phát triển trong 30 năm qua trong lý thuyết tiện ích tuyến tính, xác suất chủ quan và sự mơ hồ, sở thích và tiện ích phi tuyến, ưu thế ngẫu nhiên và phân tích bất bình đẳng, lý thuyết tiện ích đa thuộc tính, và lý thuyết lựa chọn xã hội.

Bài báo có thể được xem như một bổ sung cho bài đánh giá rộng rãi của tôi về lý thuyết tiện ích trong Khoa học Quản lý khoảng 20 năm trước. Tuy nhiên, nó không tuyên bố về tính hoàn chỉnh vì mục tiêu chính của nó là nhắc lại những món nợ quan trọng và mô tả cảm giác như thế nào khi trở thành một phần của sự phát triển phân tích quyết định trong vài thập kỷ vừa qua.

#lý thuyết quyết định #phân tích quyết định #lý thuyết tiện ích #xác suất chủ quan #sự mơ hồ #ưu thế ngẫu nhiên #bất bình đẳng #lý thuyết tiện ích đa thuộc tính #lý thuyết lựa chọn xã hội
TẬP BẢN ĐỒ XÁC SUẤT NGUY HIỂM ĐỘNG ĐẤT VIỆT NAM VÀ BIỂN ĐÔNG
Bài báo này trình bày phiên bản mới nhất của tập bản đồ xác suất nguy hiểm động đất lãnh thổ Việt Nam và khu vực Biển Đông. Danh mục động đất cập nhật tới năm 2014 và các thông tin mới được công bố gần đây nhất về địa chấn kiến tạo và địa động lực khu vực Đông Nam Á được sử dụng để xác định ranh giới của 37 vùng nguồn chấn động trên lãnh thổ Việt Nam và khu vực Biển Đông giới hạn bởi kinh tuyến 1250 Đông. Mô hình tắt dần chấn động của Toro và cộng sự (1997) được áp dụng cho các vùng nguồn chấn động trên lãnh thổ và thềm lục địa Việt Nam, trong khi mô hình tắt dần chấn động xây dựng cho các đới hút chìm của Youngs, Chiou, Silva và Humphrey (1997) được áp dụng cho vùng nguồn máng biển sâu Manila. Các bản đồ nguy hiểm động đất biểu thị phân bố không gian của giá trị trung vị của gia tốc cực đại nền (PGA) với các xác suất bị vượt quá lần lượt bằng 10%, 5%, 2% và 0,5% trong vòng 50 năm. Các khu vực có độ nguy hiểm cao nhất bao gồm 1) vùng Tây Bắc Việt Nam, nơi có các vùng nguồn chấn động Điện Biên - Lai Châu và Sơn La, có giá trị PGA cực đại đạt tới 180 g và 272 g tương ứng với các chu kỳ thời gian từ 475 năm và 9975 năm; và 2) ngoài khơi Nam Trung Bộ, nơi có các vùng nguồn chấn động kinh tuyến 1090 và Cửu Long - Côn Sơn, có giá trị PGA cực đại đạt tới 118 g và 285 g tương ứng với các chu kỳ thời gian từ 475 năm và 9975 năm. Tập bản đồ xác suất nguy hiểm động đất cung cấp những thông tin dự báo định lượng ngắn hạn, trung bình và dài hạn về độ nguy hiểm động đất trên lãnh thổ Việt Nam và khu vực Biển Đông và có thể được sử dụng trong thiết kế kháng chấn và nhiều ứng dụng địa chấn công trình.
#Probabilistic seismic hazard maps #peak ground acceleration #seismic source zones #ground motion prediction equation.
Thực trạng dạy học môn Xác suất - Thống kê so với chuẩn đầu ra ở Trường Đại học Lạc Hồng
800x600 Xây dựng chuẩn đầu ra với yêu cầu cao là một nội dung đổi mới quan trọng trong công tác giáo dục đào tạo ở Trường Đại học Lạc Hồng. Dựa trên cơ sở phân tích thực trạng dạy học Xác suất - Thống kê ở trường, chúng tôi đã có sự tiếp cận mới về vai trò của việc giảng dạy môn học này trong việc rèn luyện kĩ năng nghề nghiệp cho sinh viên khối ngành kinh tế nhằm đáp ứng chuẩn đầu ra đã xây dựng. Normal 0 false false false EN-US X-NONE X-NONE MicrosoftInternetExplorer4 /* Style Definitions */ table.MsoNormalTable {mso-style-name:"Table Normal"; mso-tstyle-rowband-size:0; mso-tstyle-colband-size:0; mso-style-noshow:yes; mso-style-priority:99; mso-style-parent:""; mso-padding-alt:0cm 5.4pt 0cm 5.4pt; mso-para-margin:0cm; mso-para-margin-bottom:.0001pt; mso-pagination:widow-orphan; font-size:10.0pt; font-family:"Times New Roman","serif";}
#chuẩn đầu ra #kĩ năng nghề nghiệp #môn Xác suất - thống kê
SO SÁNH CÁC YẾU TỐ CHU PHẪU TRONG PHẪU THUẬT NỘI SOI VỚI MỔ MỞ ĐIỀU TRỊ U TRUNG THẤT NGUYÊN PHÁT: CÓ SỬ DỤNG GHÉP CẶP GIÁ TRỊ XÁC SUẤT TRONG PHÂN TÍCH KẾT QUẢ
Đặt vấn đề:Nghiên cứu can thiệp ngẫu nhiên so sánh giữa mổ nội soi và mổ mở trong điều trị u trung thất là rất ít. Chúng tôi phân tích một nghiên cứu đoàn hệ có sử dụng ghép cặp giá trị xác suất để hiệu chỉnh một số biến số quan trọng trong so sánh một số đặc điểm lâm sàng, cận lâm sàng giữa hai phương pháp mổ.Phương pháp nghiên cứu:đoàn hệ tiền cứu từ 7/2010-7/2013 tại khoa ngoại lồng ngực bệnh viện Chợ Rẫy. Chúng tôi so sánh hai nhóm mổ mở và mổ nội soi cho các bệnh nhân có u lành trung thất hoặc u trung thất ở giai đoạn sớm. Sử dụng ghép cặp xác suất và hiệu chỉnh các yếu tố chu phẫu ảnh hưởng đến tỉ lệ tử vong, tỉ lệ biến chứng như: tuổi, giới, kích thước u, chỉ số bệnh kèm theo (CCI), phân loại ASA. Đặc điểm chính đánh giá là: thời gian mổ, lượng máu mất, thời gian hậu phẫu, thời gian lưu ống dẫn lưu màng phổi, điển đau sau mổ(Thang điểm VAS), các biến chứng.Kết quả:Chúng tôi phân tích 209 bệnh nhân u trung thất được mổ điều trị. Nhóm mổ nội soi 113 trường hợp, nhóm mổ mở 96 trường hợp. Không có tử vong hay chuyển mổ mở. Kết quả sau khi hiệu chỉnh: thời gian mổ trung bình (phút) 128,9 (Mở) so với 75,8 (NS), P < 0,0001. Máu mất trung bình (ml) 253,3 (Mở) so với 65,2 (NS), P < 0,0001. Thời gian hậu phẫu 7,8 ngày (Mở) so với 5,4 ngày (NS), P < 0.0001. Thời gian lưu ống dẫn lưu trung bình (ngày) 3,1 (Mở) so với 2,1 (NS), P < 0.0001. Điểm đau sau mổ(Thang điểm VAS) 6,6 (Mở) so với 4,5 (NS), P <0,0001. Tỉ lệ biến chứng 6,7% (Mở) so với 0,9% (NS), P = 0.011.Kết luận: Sau khi cân bằng các biến số ảnh hưởng đến tỉ lệ tử vong và biến chứng, có sử dụng ghép cặp giá trị xác suất. Kết quả cho thấy mổ nội soi trong điều trị u trung thất tốt hơn về thời gian mổ, lượng máu mất, thời gian hậu phẫu, thời gian lưu ống dẫn lưu, đau sau mổ. Không có tử vong. Tỉ lệ biến chứng trong mổ nội soi thấp hơn mổ mở.
#U trung thất #phẫu thuật nội soi lồng ngực #phẫu thuật nội soi lồng ngực hỗ trợ #ghép cặp giá trị xác suất.
Tổng số: 208   
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 10